Warning: mkdir(): No space left on device in /var/www/tg-me/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/data_analysis_ml/--): Failed to open stream: No such file or directory in /var/www/tg-me/post.php on line 50
Анализ данных (Data analysis) | Telegram Webview: data_analysis_ml/3604 -
Telegram Group & Telegram Channel
🧠 PKU-DS-LAB представили Fairy-R1 — мощную LLM-модели для математики и программирования, которая превосходит более крупные модели при меньшем числе параметров.

🚀 Что такое Fairy-R1:
• Это семейство языковых моделей, разработанных для задач математического и кодингового рассуждения
• Построены на базе DeepSeek-R1 с использованием метода distill-and-merge
• Выпущены две версии:
FairyR1-32B (32B параметров)
FairyR1-14B-Preview (14B параметров)

📊 Результаты на бенчмарках:
• AIME 2024: 80.4 (32B), 73.7 (14B)
• AIME 2025: 75.6 (32B), 64.9 (14B)
• LiveCodeBench: 67.7 (32B), 58.8 (14B)

📌 Почему это важно:
• Модели работают почти так же точно, как GPT-4, но в 20 раз легче
• Умеют обрабатывать задачи на английском и китайском
• Используют архитектуру слияния нескольких специализаций (AcreeFusion)

🛠 Как обучали:
• Математика: AIMO / NuminaMath-1.5
• Программирование: OpenThoughts-114k
• Обучение: на 32 × NVIDIA H100 (32B), 16 × H100 (14B)
• Доступ: полностью open-source (Apache 2.0)

🔗 https://huggingface.co/collections/PKU-DS-LAB/fairy-r1-6834014fe8fd45bc211c6dd7

@data_analysis_ml



tg-me.com/data_analysis_ml/3604
Create:
Last Update:

🧠 PKU-DS-LAB представили Fairy-R1 — мощную LLM-модели для математики и программирования, которая превосходит более крупные модели при меньшем числе параметров.

🚀 Что такое Fairy-R1:
• Это семейство языковых моделей, разработанных для задач математического и кодингового рассуждения
• Построены на базе DeepSeek-R1 с использованием метода distill-and-merge
• Выпущены две версии:
FairyR1-32B (32B параметров)
FairyR1-14B-Preview (14B параметров)

📊 Результаты на бенчмарках:
• AIME 2024: 80.4 (32B), 73.7 (14B)
• AIME 2025: 75.6 (32B), 64.9 (14B)
• LiveCodeBench: 67.7 (32B), 58.8 (14B)

📌 Почему это важно:
• Модели работают почти так же точно, как GPT-4, но в 20 раз легче
• Умеют обрабатывать задачи на английском и китайском
• Используют архитектуру слияния нескольких специализаций (AcreeFusion)

🛠 Как обучали:
• Математика: AIMO / NuminaMath-1.5
• Программирование: OpenThoughts-114k
• Обучение: на 32 × NVIDIA H100 (32B), 16 × H100 (14B)
• Доступ: полностью open-source (Apache 2.0)

🔗 https://huggingface.co/collections/PKU-DS-LAB/fairy-r1-6834014fe8fd45bc211c6dd7

@data_analysis_ml

BY Анализ данных (Data analysis)




Share with your friend now:
tg-me.com/data_analysis_ml/3604

View MORE
Open in Telegram


Анализ данных Data analysis Telegram | DID YOU KNOW?

Date: |

What is Telegram Possible Future Strategies?

Cryptoassets enthusiasts use this application for their trade activities, and they may make donations for this cause.If somehow Telegram do run out of money to sustain themselves they will probably introduce some features that will not hinder the rudimentary principle of Telegram but provide users with enhanced and enriched experience. This could be similar to features where characters can be customized in a game which directly do not affect the in-game strategies but add to the experience.

Telegram has exploded as a hub for cybercriminals looking to buy, sell and share stolen data and hacking tools, new research shows, as the messaging app emerges as an alternative to the dark web.An investigation by cyber intelligence group Cyberint, together with the Financial Times, found a ballooning network of hackers sharing data leaks on the popular messaging platform, sometimes in channels with tens of thousands of subscribers, lured by its ease of use and light-touch moderation.Анализ данных Data analysis from us


Telegram Анализ данных (Data analysis)
FROM USA